Qu’est-ce que la virtualisation ? Bien plus que des machines virtuelles

La virtualisation s’est développée dans de nombreux domaines, notamment les bureaux virtuels, le stockage virtuel, la mémoire virtuelle et bien d’autres encore.
De nombreux professionnels de l’informatique pensent à la virtualisation en termes de machines virtuelles (VM) et de leurs hyperviseurs associés, ainsi que des implémentations de systèmes d’exploitation, mais cela ne fait qu’effleurer la surface. Un ensemble de plus en plus large de technologies de virtualisation redéfinit les principaux éléments de l’informatique dans les organisations du monde entier.

Qu’est-ce que la virtualisation ?

En examinant la définition de la virtualisation dans un contexte plus large, nous définissons la virtualisation comme l’art et la science consistant à rendre la fonction d’un objet ou d’une ressource simulée ou émulée dans un logiciel identique à celle de l’objet physiquement réalisé correspondant. En d’autres termes, nous utilisons une abstraction pour que le logiciel ressemble et se comporte comme du matériel, avec les avantages correspondants en termes de flexibilité, de coût, d’évolutivité, de fiabilité, et souvent de capacité et de performances globales, et dans un large éventail d’applications. La virtualisation rend donc « réel » ce qui ne l’est pas, en appliquant la flexibilité et la commodité des capacités et des services logiciels comme un substitut transparent aux mêmes réalisés dans le matériel.

Des racines dans les ordinateurs centraux

Les machines virtuelles trouvent leur origine dans un petit nombre de gros ordinateurs des années 1960, notamment l’IBM 360/67, et sont devenues un élément essentiel du monde des gros ordinateurs dans les années 1970. Et avec l’introduction du 386 d’Intel en 1985, les VM se sont installées dans les microprocesseurs au cœur des ordinateurs personnels. Les machines virtuelles contemporaines, implémentées dans les microprocesseurs avec le support matériel requis et à l’aide d’hyperviseurs et d’implémentations au niveau du système d’exploitation, sont essentielles à la productivité du calcul partout, surtout pour capturer des cycles de machine qui seraient autrement perdus dans les processeurs actuels de plus de 3 GHz hautement performants.
Les VM offrent également une sécurité, une intégrité et une commodité supplémentaires, tout en réduisant au minimum les frais de calcul. En outre, nous pouvons également étendre le concept (et la mise en œuvre) des VM pour inclure des émulateurs pour les interprètes comme la machine virtuelle Java, et même des simulateurs complets. Exécuter Windows sous MacOS ? C’est simple. Le code Commodore 64 sur votre PC Windows moderne ? Pas de problème.
Le plus important ici est que les logiciels qui tournent dans les machines virtuelles n’en ont aucune connaissance – même un OS invité conçu pour fonctionner sur du métal nu pense que sa plate-forme « matérielle » est exactement comme ça. C’est là que se trouve l’élément le plus important de la virtualisation elle-même : une incarnation de l’approche de la « boîte noire » pour la mise en œuvre des systèmes d’information qui repose sur l’isolation permise par les API et les protocoles.

Pensez à cela dans le même contexte que le célèbre test de Turing sur l’intelligence des machines – les applications, qui sont, après tout, la raison pour laquelle nous mettons en place une infrastructure informatique sous quelque forme que ce soit, ne savent pas exactement où elles fonctionnent. Et elles n’ont pas besoin de l’être, ce qui permet d’améliorer la flexibilité, de réduire les coûts et de maximiser le retour sur investissement informatique.
Nous pouvons en fait faire remonter les racines de la virtualisation à l’ère du temps partagé, qui a également commencé à apparaître vers la fin des années 60. Si les ordinateurs centraux n’étaient certainement pas portables, l’amélioration rapide de la qualité et de la disponibilité des lignes téléphoniques commutées et louées et les progrès de la technologie des modems ont permis une présence virtuelle de l’ordinateur central sous la forme d’un terminal (généralement un terminal alphanumérique muet). Une machine virtuelle, en effet : Ce modèle d’informatique a conduit – grâce aux progrès technologiques et économiques des microprocesseurs – directement aux ordinateurs personnels des années 1980, avec le calcul local en plus des communications par ligne commutée qui ont finalement évolué vers le réseau local et, en fin de compte, vers l’accès transparent et continu à l’internet d’aujourd’hui.

Mémoire virtualisée

Le concept de mémoire virtuelle, sans doute tout aussi important que les machines virtuelles, a également évolué rapidement dans les années 1960. L’époque des ordinateurs centraux était caractérisée par une mémoire à noyau magnétique remarquablement coûteuse, et les ordinateurs centraux avec plus d’un seul mégaoctet de mémoire étaient rares jusque dans les années 1970. La mémoire virtuelle est activée, comme c’est le cas pour les machines virtuelles, par des ajouts relativement petits au matériel et au jeu d’instructions d’une machine pour permettre l’écriture de portions de stockage, généralement appelées segments et/ou pages, sur un stockage secondaire, et pour que les adresses mémoire à l’intérieur de ces blocs soient traduites de manière dynamique lorsqu’elles sont renvoyées par pagination à partir du disque.
Voilà – un seul mégaoctet réel de mémoire centrale sur une IBM 360/67, par exemple, pourrait prendre en charge la totalité de l’espace d’adressage 24 bits (16 Mo) prévu dans l’architecture de la machine – et, correctement mise en œuvre, chaque machine virtuelle pourrait en outre disposer de son propre complément de mémoire virtuelle. Grâce à ces innovations, toujours en cours aujourd’hui, le matériel conçu pour exécuter un seul programme ou système d’exploitation pourrait être partagé entre les utilisateurs, même en cas de systèmes d’exploitation multiples et simultanés et de besoins de mémoire massifs dépassant la capacité réelle prévue. Comme pour les machines virtuelles, les avantages sont nombreux : isolement des utilisateurs et des applications, sécurité et intégrité accrues et, là encore, un retour sur investissement nettement amélioré. Cela vous semble déjà familier ?

Infrastructure de bureau virtuel (VDI)

Après les machines virtuelles et la mémoire virtuelle, et la disponibilité de ces capacités dans les microprocesseurs et les PC à faible coût, l’avancée suivante a été la virtualisation du bureau et donc la disponibilité des applications, tant monoposte que collaboratives. Là encore, nous devons revenir au modèle de partage du temps introduit ci-dessus, mais dans ce cas, nous émulons le bureau d’un PC sur un serveur et nous remettons essentiellement les graphiques et autres éléments de l’interface utilisateur sur une connexion réseau, à un client logiciel approprié et souvent à un dispositif de client léger peu coûteux et facile à gérer et à sécuriser. Tous les grands systèmes d’exploitation actuels prennent en charge cette capacité sous une forme ou une autre, avec un large éventail de produits matériels et logiciels complémentaires, notamment la VDI, le système X Windows et le très populaire (et gratuit) VNC. Voir https://evok.com/fr/serveur-dedie-virtuel-suisse/ pour en savoir plus !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *